Chatbot
本指南介绍如何使用 Ollama(轻量推理引擎)在 NVIDIA Jetson Orin 设备上本地部署 DeepSeek-R1 大语言模型,实现离线 AI 交互,安装配置简单高效。
1. 概览
像 DeepSeek-R1 这样的 LLM(大语言模型)正逐步成为边缘智能应用的核心。直接在 Jetson Orin 上运行的好处包括:
- 完全离线运行
- 低延迟响应
- 数据隐私增强
本指南内容包括:
- 环境准备
- 安装 Ollama
- 运行 DeepSeek-R1 模型
- 使用 Open WebUI 提供网页界面(可选)
2. 环境准备
硬件需求
组件 | 要求 |
---|---|
设备 | Jetson Orin(Nano / NX / AGX) |
内存 | ≥ 8GB(更大模型需更高内存) |
存储空间 | ≥ 10GB(取决于模型大小) |
GPU | 支持 CUDA 的 NVIDIA GPU |
软件需求
- Ubuntu 20.04 / 22.04(建议使用 JetPack 5.1.1+)
- NVIDIA CUDA 工具包和驱动(JetPack 已预装)
- Docker(可选,用于容器化部署)
⚙️ 使用
jetson_clocks
和检查nvpmodel
,启用最大性能模式以获得最佳推理效果。
3. 安装 Ollama(推理引擎)
方式 A:原生脚本安装
curl -fsSL https://ollama.com/install.sh | sh
- 安装 Ollama 服务与 CLI 工具
- 自动处理依赖并配置后台服务